Материалы по тегу: южная корея

08.08.2025 [10:44], Сергей Карасёв

Стартап Xcena представил вычислительную память MX1 с поддержкой PCIe 6.0 и CXL 3.2

Южнокорейский стартап Xcena анонсировал свой первый продукт — вычислительную память MX1. Избранные партнёры начнут получать образцы изделий с октября, тогда как массовое производство запланировано на 2026 год.

Решение MX1 обладает поддержкой PCIe 6.0 и CXL 3.2. Новинка позволяет расширить основную память системы, добавив до 1 Тбайт в виде четырёх модулей DDR5 DIMM ёмкостью 256 Гбайт каждый. Реализована технология NDP (Near Data Processing), которая сводит к минимуму задержку при перемещении данных между интерфейсами и значительно снижает совокупную стоимость владения для приложений, требующих обработки больших объемов информации.

Для выполнения вычислений в оперативной памяти используются «тысячи ядер» на открытой архитектуре RISC-V. Изделия MX1 позволяют существенно ускорить выполнение таких задач, как операции с векторными и графовыми базами данных, анализ информации и пр. При этом снижается нагрузка на CPU. Прототип на базе FPGA продемонстрировал сокращение времени обработки запросов при работе с базами данных на 46 % по сравнению с серверными CPU. Теоретически выигрыш может достигать 95 % при реализации в виде ASIC.

 Источник изображения: Xcena

Источник изображения: Xcena

Чип задействует 4-нм техпроцесс Samsung Foundry. Упомянута поддержка ECC. Компания Xcena предоставляет полностью интегрированный комплект для разработчиков (SDK), состоящий из низкоуровневых драйверов, библиотек среды выполнения и вспомогательных инструментов, которые помогают создавать прототипы и развертывать MX1 с минимальными усилиями по интеграции.

Постоянный URL: http://servernews.ru/1127306
25.07.2025 [09:23], Владимир Мироненко

Импортозамещение по-южнокорейски: LG AI Research выбрала ускорители FuriosaAI RNGD для своих ИИ-серверов

Компания LG AI Research (ИИ-подразделение LG Group) из Южной Кореи заключила соглашение с южнокорейским стартапом FuriosaAI о выпуске серверов с ИИ-ускорителями RNGD для работы с собственным семейством LLM Exaone, сообщил The Register. Как сообщил генеральный директор FuriosaAI Джун Пайк (June Paik) изданию EE Times, серверы LG с чипами RNGD будут ориентированы на предприятия, использующие модели ExaOne в сфере электроники, финансов, телекоммуникаций и биотехнологий. Серверы поступят в продажу в конце этого года.

«После тщательного тестирования широкого спектра опций мы пришли к выводу, что RNGD — высокоэффективное решение для развёртывания моделей Exaone», — заявил Киджонг Чон (Kijeong Jeon), руководитель подразделения продуктов LG AI Research. «RNGD обеспечивает убедительное сочетание преимуществ: превосходную производительность в реальных условиях, значительное снижение совокупной стоимости владения и удивительно простую интеграцию», — добавил он.

Подобно системам на базе NVIDIA RTX Pro Blackwell, серверы LG RNGD будут включить до восьми ускорителей с интерфейсом PCIe 5.0. Эти системы будут работать на базе того, что FuriosaAI описывает как высокоразвитый программный стек, включающий библиотеку vLLM. LG также предложит собственную платформу агентского ИИ ChatExaone, которая адаптирована для корпоративных сценариев использования. Она объединяет ряд фреймворков для анализа документов, глубоких исследований, анализа данных и RAG.

 Источник изображений: FuriosaAI

Источник изображений: FuriosaAI

LG AI Research протестировала работу модели ExaOne-32B на восьмичиповом 4U-сервере c воздушным охлаждением, который был разработан совместно с Supermicro. В 15-кВт стойке можно разместить пять таких серверов. По словам Пайка, LG AI Research протестировала оборудование от нескольких поставщиков оборудования из Южной Кореи и других стран, взяв за основу ускорители NVIDIA A100. «LG AI Research также тестировала облачные решения, но, по их словам, наше решение на данный момент оказалось единственным, отвечающим их требованиям», — сказал Пайк.

Как полагает The Register, выбор для сравнения ускорителя NVIDIA A100, дебютировавшего в 2020 году, а не более свежих моделей, вызван тем, что LG AI Research больше интересует энергоэффективность оборудования, чем производительность. И, как отметил Джун Пайк, хотя за пять лет с момента появления A100 ускорители NVIDIA, безусловно, стали мощнее, но произошло это за счёт увеличения энергопотребления и площади кристалла.

Сообщается, что LG AI фактически использовала четыре PCIe-ускорителя RNGD, задействовав тензорный параллелизм для запуска модели Exaone 32B с 16-бит точностью. По словам Пайка, у LG были очень чёткие целевые показатели производительности, которые она стремилась достичь при валидации чипа. В частности, ограничения включали время до отдачи первого токена (TTFT) — примерно 0,3 с для небольших запросов на 3 тыс. токенов или 4,5 с для более крупных запросов на 30 тыс. токенов. Результат в 60 токенов/с достигается для контекстного окна размером 4 тыс. токенов или 50 токенов/с для контекстного окна размером 32 тыс. токенов.

По словам Пайка, тесты проводились в режиме BF16, поскольку сравниваемые A100 не имеет встроенной поддержки FP8, так что использование RNGD в FP8-режиме позволит удвоить эффективность инференса и снизить TTFT. Кроме того, сервер продемонстрировал в 2,25 раза более высокую производительность инференса LLM на Ватт по сравнению с A100, а полная стойка сможет генерировать в 3,75 раза больше токенов, чем стойка с A100 при том же энергопотреблении. Чип FuriosaAI RNGD обеспечивает производительность 512 Тфлопс (FP8) при TDP 180 Вт.

В отличие от ускорителей NVIDIA, оснащённых высокоскоростным интерконнектом NVLink (600 Гбайт/с), FuriosaAI использует интерфейс PCIe 5.0 (128 Гбайт/с). По словам FuriosaAI, чтобы избежать узких мест и накладных расходов, связанных с интерконнектом, компилятор компании помогает оптимизировать процесс обмена данными и собственно вычисления.

Постоянный URL: http://servernews.ru/1126470
21.07.2025 [16:08], Руслан Авдеев

Samsung начал поиск альтернатив VMware

Основные компании, входящие в Samsung Group, начали искать альтернативы VMware в связи со значительным ростом цен на продукты последней, причём ПО, похоже, будут дорожать и дальше, передаёт ETNews. Как сообщают источники издания, Samsung Electronics, Samsung Display и другие подразделения Samsung Group уже реализуют либо готовятся к реализации проектов по постепенному отказу от VMware.

Так, Samsung Electronics рассматривает альтернативные варианты с прошлого года. При этом компания не намерена немедленно отказываться от продуктов, пока заключён контракт на закупку ПО на сумму ₩40 млрд (около $29 млн). Параллельно компания участвует в проектах по разработке open source ПО. Цель состоит в том, чтобы разработать облачную среду, избегая коммерческих инструментов вроде продуктов VMware. Привлечены специалисты по виртуализации и облачным технологиям. В 2026 году будут определены направление и масштаб внедрения новых продуктов.

Samsung Electronics намерена самостоятельно создать частное облако. Для работы над ним привлекут как сотрудников самой Samsung, так и специализированные компании. Проект планируется завершить в течение года. Samsung Display также готовит проект снижения зависимости от VMware. Компании Samsung Group являются одними из крупнейших заказчиков VMware в Южной Корее. Однако смена политики VMware привела к росту цен, так что дочерние структуры Samsung Group посчитали затраты слишком высокими в сравнении с выгодами от использования VMware.

 Источник изображения: Broadcom

Источник изображения: Broadcom

В 2023 году VMware была куплена Broadcom, а в 2024-м компания повысила цены на свою продукцию. По мнению экспертов, в ближайшие два-три года цена может значительно увеличиться в сравнении с текущей. Уже есть примеры пятикратного роста стоимости лицензий и обслуживания. Утверждается, что цены будут формироваться в индивидуальном порядке. Кроме того, постоянно меняются условия сделок.

Есть претензии и к политике продаж. Флагманский продукт VMware Cloud Foundation (VCF) включает ПО для виртуализации, сетевые решения и решения для хранения данных единым пакетом. При этом многим корейским компаниям нужны только продукты для виртуализации, а переплачивать за ненужные продукты они не хотят. По словам одного из источников, большинство крупных компаний, включая производственные и финансовые, ускорят движение к отказу от VMware.

Постоянный URL: http://servernews.ru/1126274
14.07.2025 [10:37], Руслан Авдеев

Inuverse планирует оснастить дата-центр AI Daegu Data Center топливными элементами FuelCell Energy

Американская FuelCell Energy, разрабатывающая топливные элементы, начала сотрудничать с застройщиком Inuverse с целью изучения возможности развёртывания топливных элементов мощностью до 100 МВт для питания строящегося дата-центра AI Daegu Data Center (AI DDC) в Тэгу (Daegu, Южная Корея), сообщает Datacenter Dynamics.

Компании подписали меморандум о взаимопонимании (не влекущий юридических последствий), определяющий параметры возможного партнёрства. Реализовать проект начнут поэтапно, начиная с 2027 года. По словам Inuverse, новый экологичный ИИ ЦОД получит систему абсорбционного охлаждения на платформе FuelCell Energy с околонулевыми выбросами. Первый этап предусматривает строительство 150 МВт, на втором мощность увеличат до более чем 300 МВт.

FuelCell Energy ориентируется на рынок дата-центров как на ключевого потребителя своих технологий. В компании заявляют, что её «чистая», надёжная и масштабируемая платформа специально разработана для рынка ЦОД. Проект с Inuverse станет для компании первым в этой сфере. По данным FuelCell Energy, она уже развёртывает 188 модулей на топливных элементах в четырёх проектах, в том числе 58,8 МВт в Хвасоне (Hwaseong, Южная Корея).

 Источник изображения: FuelCell Energy

Источник изображения: FuelCell Energy

Крупнейшим игроком в сегменте топливных элементов для ЦОД считается Bloom Energy. В ноябре прошлого года компания подписала контракт с American Electric Power на поставку 1 ГВт для ИИ ЦОД, а в феврале Также у компании есть контракты с CoreWeave и QCT, а в феврале этого года она расширила соглашение с Equinix, в рамках которого топливные элементы разместят у 19 ЦОД общей мощностью более 100 МВт.

Хотя топливные элементы обычно отличаются низкими выбросами в сравнении с решениями на ископаемом топливе благодаря возможности работать на водороде, всё ещё нет единого мнения относительно того, насколько они на самом деле «низкоуглеродны». Сейчас они работают в основном на природном газе из-за высокой стоимости «зелёного» водорода, получаемого, например, из воды. Так, в 2024 году Amazon под давлением общественности отказалась от ячеек Bloom Energy в Орегоне (США) из-за проблем с выбросами, но зато заключила аналогичный контракт для своего калифорнийского дата-центра.

Постоянный URL: http://servernews.ru/1125893
17.06.2025 [11:15], Руслан Авдеев

SK Group и AWS построят ИИ ЦОД на 60 тыс. ускорителей — крупнейший в Южной Корее

Корейская SK Group и Amazon Web Services (AWS) совместно построят ИИ ЦОД в Ульсане (Ulsan, Южная Корея), в 305 км от Сеула. Дата-центр разместят в национальном промышленном комплексе Mipo, объект рассчитан на размещение 60 тыс. ИИ-ускорителей, сообщает Datacenter Dynamics.

Хотя это не особенно типичная локация для размещения ЦОД, её выбрали из-за доступа к большим энергетическим мощностям. Дело в том, что поблизости находится ТЭС SK Gas, работающая на сжиженном природном газе. По данным местных СМИ, новый ЦОД будут строить поэтапно. На первом этапе, уже к ноябрю 2027 года, будет обеспечена мощность 41 МВт. К февралю 2029 года она должна вырасти до 103 МВт, а в будущем кампус должны расширить до 1 ГВт.

Церемонию торжественного старта проекта запланирована на июнь, а закладка первого камня ЦОД — на август 2025 года. SK Telecom и SK Broadband намерены вложить в ИИ-инициативы ₩3,4 трлн ($2,5 млрд), причём только в совместный проект с AWS готовятся вложить триллионы. По данным СМИ, к 2028 году AWS, в свою очередь, намерена вложить в проект около $4 млрд. По данным SK Group, речь идёт о строительстве крупнейшего в стране ЦОД на сегодняшний день.

 Источник изображения: rawkkim/unsplash.com

Источник изображения: rawkkim/unsplash.com

Ранее компания уже объявляла о планах строительства гигаваттных ИИ ЦОД в ключевых регионах на территории страны, но пока неизвестно, входит ли совместная инициатива в их число. Ранее южнокорейские власти объявляли о намерении создать Национальный вычислительный ИИ-центр (National AI Computing Center) на 15 тыс. ускорителей.

SK Telecom (SKT) активно развивает связанный с ИИ-бизнес, делая ставку на инфраструктуру (дата-центры, GPU-as-a-Service) и ИИ-сервисы для потребителей и корпоративных клиентов. Несмотря на пока небольшой доход от ИИ-направления (около $115 млн в первом квартале), SKT сотрудничает с международными партнёрами, включая альянс Global Telecom Alliance и американские Anthropic и Lambda. Материнский холдинг SK Group обеспечивает мощную поддержку, имея $88 млрд выручки в прошлом году. В марте 2025 года сообщалось, что SK Telecom займётся созданием ИИ ЦОД совместно с Elice, Schneider Electric и Giga Computing.

AWS располагает в Сеуле собственным облачным регионом с четырьмя зонами доступности, запущенными в 2016 году. Также компания строит собственный ЦОД в Согу, Инчхон (Seo-gu, Incheon). В 2021 году компания заявила, что намерена построить объект для сервиса AWS Ground Station в кампусе ЦОД в Сеуле. Также ранее компания уже сотрудничала с SK Telecom в своей зоне Wavelength.

Не так давно AWS обязалась потратить $13 млрд на расширение инфраструктуры ЦОД в Австралии и запустила облачный регион на Тайване, а также готовится потратить $4 млрд на создание облачного региона в Чили.

Постоянный URL: http://servernews.ru/1124520
27.05.2025 [15:41], Руслан Авдеев

OpenAI нанимает сотрудников для офиса в Южной Корее

OpenAI обзавелась юридическим лицом в Южной Корее — компания стремится содействовать дальнейшему внедрению собственных ИИ-технологий в стране, которые и без того пользуются там высоким спросом. Создатели ChatGPT намерены открыть официальный офис в Сеуле, сообщает Bloomberg. По информации издания, открытие состоится в ближайшие месяцы, а компания уже начала нанимать сотрудников «для поддержки партнёрских отношений с бизнесом и властями».

Согласно статистике OpenAI, Южная Корея по количеству подписчиков на платную версию ChatGPT занимает второе место в мире после США. Офис в Южной Корее станет третьим в Азии — первые два открыли в Японии и Сингапуре (40 и 20 сотрудников соответственно).

На этой неделе с турне по Азии путешествует новый директор по стратегии Джейсон Квон (Jason Kwon), стремящийся встретиться с государственными служащими и отраслевыми партнёрами для обсуждения будущей ИИ-инфраструктуры и использование ПО OpenAI.

 Источник изображения: Mathew Schwartz/unsplash.com

Источник изображения: Mathew Schwartz/unsplash.com

По словам Квона, полноценная ИИ-экосистема в Южной Корее сделает её одним из самых перспективных рынков в мире для значимого внедрения искусственного интеллекта, охватывающего все уровни, как технические, от аппаратного обеспечения до ПО, так и социальные — от студентов до пожилых людей.

Впрочем, за последние дни это не первая новость о значимых инициативах компании в Азии. Так, недавно сообщалось, что OpenAI и G42 построят 5-ГВт кампус в Абу-Даби (ОАЭ), он значительно крупнее, чем 1,2-ГВт кампус Stargate в Техасе, хотя компания принимает активное участие и в этом проекте.

Постоянный URL: http://servernews.ru/1123499
26.03.2025 [15:43], Руслан Авдеев

Началась прокладка подводного интернет-кабеля E2A между США и Азией

Стартовала прокладка подводного кабеля E2A протяжённостью 12,5 тыс. км, соединяющего США и Азию. Кабельная система получит основные посадочные станции в Морро-Бэй (Morro Bay) в Калифорнии, Пусане (Busan) в Южной Корее и Тоучэне (Toucheng) на Тайване, сообщает Datacenter Dynamics. Кабель прокладывается компанией Alcatel Submarine Networks (ASN).

E2A обеспечит ёмкость более 192 Тбит/с с оптимизированным для современных приложений уровнем задержки. Кабель получит 12 оптоволоконных пар и 18-кВ систему питания. Ввод проекта в эксплуатацию запланирован на II половину 2028 года. Как сообщается в пресс-релизе ASN, кабель будет использовать архитектуру Open Cable System, которая упростит масштабирование и позволит обслуживать несколько различных операторов одновременно. В консорциум, стоящий за проектом, входят SoftBank, SK Broadband, Chunghwa Telecom и Verizon.

SoftBank заявила, что обеспечит строительство посадочной станции для кабеля в Маруяме (Maruyama, префектура Тиба) — для японских клиентов. В SoftBank заявили, что очень довольны стартом нового проекта, связывающего Азию и Соединённые Штаты. С началом эры полноценного применения ИИ возрастает роль кабелей, соединяющих не только Японию и США, но и ключевые регионы Азии. Компания отметила, что E2A будет способствовать развитию глобальных, многофункциональных и стабильных платформ, создавая инфраструктуру для эпохи искусственного интеллекта.

 Источник изображения: ASN

Источник изображения: ASN

В прошлом году Google уже анонсировала планы инвестиций в размере $1 млрд в создание двух подводных кабельных маршрутов между США и Японией — Proa и Taihei. Прочие кабели, соединяющие западное побережье Соединённых Штатов и Японию, включают PC-1, TGN-Pacific, TPE, Unity, Faster, NCP и Jupiter.

Конечно, работы ведутся не только на транстихоокеанском направлении. Например, в феврале 2025 года появилась информация о намерении Meta проложить кругосветный, самый протяжённый интернет-кабель в мире. Самый северный подводный кабель в мире Arctic Way проложат Space Norway и SubCom.

Постоянный URL: http://servernews.ru/1120334
24.03.2025 [23:55], Владимир Мироненко

Разработчик ИИ-ускорителей FuriosaAI отказался «влиться» в Meta✴ за $800 млн

Стартап FuriosaAI из Южной Кореи, представивший в прошлом году ИИ-ускоритель RNGD для работы с большими языковыми моделями (LLM) и мультимодальным ИИ, отклонил предложение о поглощении со стороны Meta Platforms, которая была готова заплатить за это $800 млн. FuriosaAI намерена и дальше развивать бизнес в качестве независимой компании. Об этом сообщил Bloomberg со ссылкой на информированный источник.

По словам собеседника Bloomberg, Meta вела переговоры о приобретении FuriosaAI из Сеула с начала этого года. После того как в феврале появились слухи о возможном поглощении стартапа, начали расти в цене акции его крупнейшего инвестора, южнокорейской венчурной компании DSC Investment, но после известий об отказе их стоимость упала в понедельник на 16 %.

Ускоритель RNGD, выполненный по 5-нм техпроцессу компании TSMC и использующий чипы памяти HBM3, поставляемые SK Hynix, способен конкурировать чипами NVIDIA, а также других ИИ-стартапов, включая Groq, SambaNova и Cerebras. Персонал FuriosaAI составляет около 150 сотрудников, включая 15 человек, работающих в офисе в Кремниевой долине. В конце прошлого года стартап начал тестирование RNGD и рассылку образцов чипов клиентам, включая LG AI Research (ИИ-подразделение LG Group) и Saudi Aramco. Сообщается, что более десяти потенциальных клиентов будут тестировать образцы RNGD в I половине этого года.

 Источник изображения: FuriosaAI

Источник изображения: FuriosaAI

По словам источников, FuriosaAI планирует привлечь дополнительный капитал и лишь потом провести первичное публичное размещение акций (IPO). Ожидается, что примерно через месяц компания завершит расширенный раунд финансирования серии C, который позволит получить намеченную сумму. До этого основанная в 2017 году FuriosaAI привлекла за четыре раунда финансирования $115 млн, пишет Data Center Dynamics.

В свою очередь, Meta вкладывает значительные средства в ИИ-инфраструктуру, стремясь опередить конкурентов, включая OpenAI и Google. В январе 2025 года гендиректор Meta Марк Цукерберг (Mark Zuckerberg) заявил, что компания выделит до $65 млрд на развитие ИИ в 2025 году, включая расходы на строительство крупного ЦОД и найм персонала в сфере ИИ. А всего неделю спустя Цукерберг сообщил инвесторам, что Meta планирует потратить сотни миллиардов долларов на инфраструктуру ИИ.

Meta также работает над созданием собственных чипов. В 2023 году она представила чип Meta Training and Inference Accelerator (MTIA) для ИИ-нагрузок, а в 2024 году был анонсирован ИИ-ускоритель MTIA второго поколения, втрое превосходящий предшественника по производительности. Сейчас компания ведёт тестирование собственного ускорителя для обучения ИИ-моделей.

Постоянный URL: http://servernews.ru/1120240
10.03.2025 [12:16], Сергей Карасёв

SK Telecom займётся созданием ИИ ЦОД совместно с Elice, Schneider Electric и Giga Computing

Южнокорейская телекоммуникационная компания SK Telecom, по сообщению Datacenter Dynamics, объявила о заключении партнёрских соглашений с Elice, Schneider Electric и Giga Computing с целью развития проектов в области ЦОД, ориентированных на ИИ.

В частности, в сотрудничестве с Elice планируется развитие модульных дата-центров для ИИ. Южнокорейская Elice, основанная в 2015 году, предоставляет облачные сервисы в сфере ИИ. Elice предлагает доступ к ускорителям NVIDIA и FuriosaAI. В дальнейшем планируется использовать разработки Rebellions для машинного зрения, чат-ботов и больших языковых моделей (LLM). Кроме того, Elice создала модульный контейнерный ЦОД Elice AI Portable Modular Data Center (PMDC).

Отмечается, что SK Telecom подписала меморандум о взаимопонимании (MoU) с Giga Computing и SK Enmove: стороны намерены осуществлять научно-исследовательские и опытно-конструкторские работы в сфере систем охлаждения следующего поколения для дата-центров. Речь идёт о развитии технологий прямого жидкостного охлаждения Direct-To-Chip и иммерсионного (погружного) охлаждения. В рамках партнёрства Giga Computing поделится опытом в создании передовых СЖО, тогда как SK Enmove будет поставлять охлаждающие жидкости. Аналогичное соглашение было заключен с Iceotope.

 Источник изображения: Elice

Источник изображения: Elice

В свою очередь, партнёрство между SK Telecom и Schneider Electric ориентировано на разработку и внедрение MEP-систем (вентиляция, электрика, водоснабжение и водоотведение). На первом этапе стороны намерены заниматься развитием проектов в различных регионах Южной Кореи, после чего сотрудничество расширится по всему миру.

Наконец, SK Telecom планирует взаимодействовать с компанией IonQ, которая специализируется на разработках в области квантовых вычислений. SK Telecom рассчитывает интегрировать квантовые технологии IonQ в свои ИИ-платформы, включая Personal AI Agent (PAA), GPUaaS (GPU-as-a-Service) и Edge AI. При этом не уточняется, будет ли SK Telecom устанавливать квантовые компьютеры IonQ, такие как Forte Enterprise и Tempo.

Постоянный URL: http://servernews.ru/1119466
19.02.2025 [16:58], Руслан Авдеев

В Южной Корее за $35 млрд построят крупнейший в мире ИИ ЦОД на 3 ГВт

Специально созданное государственно-частное партнёрство будет курировать строительство в Южной Корее крупнейшего в мире ИИ ЦОД. Работы по созданию дата-центра стоимостью $35 млрд должны начаться в конце 2025 года. К моменту их завершения в 2028 году ёмкость ЦОД должна составить 3 ГВт, сообщает пресс-служба инвесткомпании Stock Farm Road, подписавшей меморандум о взаимопонимании с властями провинции Чолла-Намдо (Jeollanam-do). Курировать проект будет именно Stock Farm Road, которая намерена в ближайшие полтора года анонсировать аналогичные соглашения в Азии, США и Европе.

Объект получит передовые системы охлаждения, доступ к региональным и международным ВОЛС и будет справляться со значительными и резкими изменениями энергетической нагрузки. ЦОД послужит основой для поддержки ИИ нового поколения, будет способствовать инновациям и экономическому росту в регионе и за его пределами. В Stock Farm Road заявляют, что речь идёт больше, чем о просто технологической вехе. Это стратегически важный шаг вперёд, который обеспечит технологическое лидерство Южной Кореи. Изначальные затраты составят $10 млрд, а позже вырастут до $35 млрд.

 Источник изображения: rawkkim/unsplash.com

Источник изображения: rawkkim/unsplash.com

Компания имеет опыт использования аналитических инструментов и искусственного интеллекта для управления энергоресурсами, а также имеет собственную патентованную платформу для оптимального преобразования энергии в «интеллектуальные» ресурсы — e2i². Компания уже объявила, что её опыт в данной области пригодится и при строительстве ЦОД, а прочие подразделения бизнеса обеспечат доступ к капиталу для финансирования строительства.

Власти Чолла-Намдо поддержат проект, выдав необходимые разрешения и лицензии, необходимые для начала строительства. Предполагается, что проект может преобразовать регион. Новый ЦОД — не просто очередной инфраструктурный проект, но стартовая площадка для новой цифровой промышленной революции.

Решение разместить ЦОД в провинции Чолла-Намдо соответствует вектору развития, которого придерживается правительство страны. Общее направление — децентрализация ЦОД за пределами «Большого Сеула» и создание «целевых округов». Тем не менее, как сообщают в консалтинговой компании Cushman & Wakefield, это создаёт проблемы из-за задержек и отдалённости от конечных пользователей — ЦОД столичного региона всё же окажутся ключевыми игроками, передаёт ComputerWeekly.

Это не единственный крупный южнокорейский проект за последние месяцы. Так, в начале октября 2024 года KT Corporation заключила с Microsoft многомиллиардную сделку в сфере ИИ-инфраструктуры. Конкурирующая SK Telecom также намерена построить гигаваттные ИИ ЦОД в Южной Корее и за её пределами.

Постоянный URL: http://servernews.ru/1118519

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;

Система Orphus